ChatGPT bịa chuyện giáo sư quấy rối tình dục
Vào ngày 9 tháng 4 năm 2023, ChatGPT đã bịa chuyện về giáo sư luật Jonathan Turley, đưa ông vào danh sách các học giả quấy rối tình dục, mặc dù ông hoàn toàn vô tội. Sự việc bắt đầu khi giáo sư luật Eugene Volokh từ Đại học California hỏi ChatGPT về tình trạng quấy rối tình dục tại các trường luật ở Mỹ.
Ông yêu cầu ChatGPT đưa ra ít nhất 5 ví dụ cùng trích dẫn từ các bài báo liên quan. AI đã phản hồi với 5 thông tin chi tiết, nhưng khi Volokh kiểm tra, ba trong số đó là sai sự thật, trích dẫn các bài viết không tồn tại từ Washington Post, Miami Herald và Los Angeles Times. Tên của Turley cũng nằm trong danh sách đó. Theo AI, giáo sư Turley đã có những bình luận gợi dục và có hành vi không đúng mực với một sinh viên trong chuyến đi tới Alaska, dẫn chứng là bài viết trên Washington Post vào tháng 3 năm 2018.
Không có bài viết nào như vậy và giáo sư Turley chưa từng bị cáo buộc quấy rối sinh viên. Washington Post đã thử nhập lại câu hỏi của Volokh vào ChatGPT và Bing. Phiên bản miễn phí của ChatGPT từ chối trả lời vì vi phạm chính sách nội dung AI, cấm phát tán thông tin xúc phạm hoặc gây hại.
Trong khi đó, hệ thống Bing sử dụng mô hình GPT-4 vẫn cung cấp thông tin sai lệch về Turley, dẫn cả nguồn từ bài viết của ông trên USA Today một ngày trước, trong đó ông kể về trải nghiệm bị ChatGPT cáo buộc sai. Nói cách khác, khi báo chí phản ánh việc ChatGPT bịa đặt thông tin về Turley, Bing lại lặp lại sai lầm đó, dẫn đến thông tin sai lệch có thể lan truyền giữa các AI.
Giáo sư Turley thường xuyên xuất hiện trên truyền thông và có thể yêu cầu chỉnh sửa nội dung bản tin, nhưng lần này ông không thể liên lạc với ai để đính chính thông tin sai lệch do ChatGPT đưa ra, khiến ông cảm thấy rất lo lắng. Ông cho rằng những cáo buộc như vậy có thể gây hại lớn. Trải nghiệm của ông là minh chứng cho những cạm bẫy của AI như ChatGPT, vốn có khả năng tạo ra thông tin sai lệch và tự bịa ra dữ liệu để bảo vệ lập luận.
Chưa có biện pháp kiểm soát cụ thể cho các AI như ChatGPT, Bing và Bard, mặc dù chúng đang được sử dụng rộng rãi trên Internet. Sự phổ biến của các AI này gây lo ngại về việc phát tán tin giả và trách nhiệm khi chatbot đưa ra thông tin sai. Kate Crawford, nhà nghiên cứu cấp cao tại Microsoft Research, cho biết AI thường trả lời tự tin, khiến người dùng khó phân biệt giữa thông tin đúng và sai.
Chúng tôi cam kết minh bạch rằng ChatGPT không phải lúc nào cũng chính xác. Cải thiện độ chính xác là ưu tiên hàng đầu của chúng tôi, theo phát ngôn viên OpenAI Niko Felix. Chatbot AI hoạt động bằng cách tiếp thu nhiều nội dung trên Internet, từ các nguồn như Wikipedia và Reddit, để tạo ra phản hồi đáng tin cậy cho hầu hết câu hỏi.
Chúng được huấn luyện để nhận diện câu chữ và tạo ra câu nói, bài viết hoàn chỉnh, nhưng không đảm bảo rằng câu trả lời của AI sẽ chính xác. Các mô hình ngôn ngữ hiện tại không có cơ chế đủ tin cậy để xác thực nội dung. Brian Hood, thị trưởng vùng Hepburn Shire ở Victoria, Australia, đã đe dọa kiện OpenAI vì tội phỉ báng, trừ khi họ đính chính thông tin sai về việc ông từng ngồi tù vì tội hối lộ.
Katy Asher, Giám đốc truyền thông cấp cao tại Microsoft, cho biết công ty đang nỗ lực đảm bảo kết quả tìm kiếm an toàn và chính xác. Tuy nhiên, vẫn chưa rõ ai sẽ chịu trách nhiệm khi AI sản sinh hoặc lan truyền thông tin sai lệch. Về mặt pháp lý, không ai biết tòa án sẽ xử lý ra sao nếu có người kiện nhà phát triển chatbot AI về nội dung mà chúng cung cấp, theo Jeff Kosseff, giáo sư tại Học viện Hải quân Mỹ và chuyên gia về phát ngôn trên mạng.
Điệp Anh theo Washington Post.
Nguồn:vnexpress.net/chatgpt-bia-chuyen-giao-su-quay-roi-tinh-duc-4591085.html